
Zack Kass
Global AI Advisor and Former Head of Go-To-Market, OpenAI

Künstliche Intelligenz verändert die Entwicklung von Software ebenso grundlegend wie ihre Bereitstellung. Gleiches gilt aber auch dafür, wie sie abgesichert werden muss. Genau deshalb sollten auch Sie beim allerersten Summit zu AI Security dabei sein, bei dem wir gemeinsam mit der weltweiten Community ausloten, wie sich die Innovationen von KI ohne Kompromisse bei der Sicherheit erschließen lassen.
Mit inspirierenden Keynotes, Demos am Objekt und spannender Security-Forschung der Community nimmt Sie die DevSecCon25 mit auf eine Reise rund um die Welt wegweisender KI-Security. Ganz gleich, ob Sie angesichts komplexer MCP-Server, allgegenwärtiger Agents in Produktionsumgebungen oder des Vormarschs von Vibe-Coding um die Sicherheit besorgt sind – auf dieser Konferenz erfahren Sie, wie Sie all dies bewältigen.
Freuen Sie sich auf führende KI- und Security-Experten aus aller Welt. Eine Liste aller Speaker finden Sie weiter unten.

Global AI Advisor and Former Head of Go-To-Market, OpenAI

Developers Education, WorkOS

Principal Developer Advocate, Qodo

Founder and CEO, Tessl
Konferenz kann jeder. Neben Keynotes, die inspirieren, und Hands-on Sessions, die hängenbleiben, haben wir auch Livemusik und DJ-Sets, Dev-Challenges und Games für Sie am Start. Natürlich alles mit der Developer-DNA, für die wir bekannt sind, wie unsere Talk-Tracks und die vollständige Agenda unten zeigen.
Auf der Mainstage erwarten Sie Branchen-Leader aus KI und Cybersecurity, deren Keynotes Sie durch zukunftsweisende Insights und Thought Leadership zum Denken anregen und Ihnen eine Vision zur Zukunft sicherer KI vermitteln werden.
Laptop nicht vergessen, hier wird es interaktiv: In unseren Demos zu sicherer Entwicklung mit KI erwerben Sie Skills, die sich auf Anhieb in der Praxis anwenden lassen.
Bei Talks am Puls neu aufkommender Security-Herausforderungen im Zeitalter der KI lernen Sie innovative Konzepte kennen, mit denen Sie gestützte Anwendungen besser schützen, Einsicht in KI-Modelle gewinnen und Agents an sämtlichen Punkten des SDLC besser absichern.
Bei diesem Track, der so dynamisch ist wie die Innovationen von Snyk, erleben Sie unsere neuesten Entwicklungen aus erster Hand, mit Live-Produktdemos, wichtigen Ankündigungen und spannenden Kunden-Stories.
Von hochkarätigen Keynotes bis hin zu bahnbrechenden Breakouts – hier finden Sie die komplette Agenda (Zeitangaben in Eastern Time).
Peter McKay
CEO, Snyk
KI verändert die Rolle des Entwicklers grundlegend. Snyk CEO Peter McKay eröffnet das Event mit einer inspirierenden Keynote dazu, wie KI vom Design und Coding bis zur Wartung sämtliche Prozesse der Software-Entwicklung transformiert. Welche herausragenden Chancen sich dabei eröffnen, beleuchtet er dabei ebenso wie die kritischen Risiken, die es zu adressieren gilt, um die Potenziale sicher zu nutzen.
Guy Podjarny
Founder & CEO, Tessl
Danny Allan
Chief Technology Officer, Snyk
Ein großes Thema diskutiert im kleine Rahmen: Mit Blick auf die Zukunft der Software-Entwicklung beleuchten Guy Podjarny und Danny Allan, wie sich die Branche von codegesteuerten Methodiken in Richtung Spec-driven Development bewegt. Ebenso untersuchen sie die neu aufkommende Anforderung, Agent Experience und Developer Experience in Einklang zu bringen und wie sich dieser Paradigmenwechsel für Entwickler, Innovationsdynamik und Sicherheit auswirkt.
Zach Proser
Developers Education – WorkOS
Daran, an den Bildschirm gefesselt zu sein, werden sich schon bald nur noch echte Senior Developer erinnern können. Denn KI-native Tools lassen die Grenzen, wo und wann Software entstehen kann, immer mehr verschwinden.
In dieser Keynote zeigt Zack Proser am Beispiel seines eigenen Workflows, wie sich der Wandel vollzieht: Den Morgen und Nachmittag beginnt er an seinem MacBook, auf dem Wispr Flow seine Spracheingaben mit 179 Wörtern pro Minute in Text umwandelt, den er im gleichen Zug an Cursor Agents zur Feature-Umsetzung weitergibt.
Der Clou kommt jedoch zum Mittag, den er mit einem Waldspaziergang begeht. Mit dem Advanced Voice Mode von OpenAI auf seinem Smartphone bewegt er sich auf den Spuren der Lehre des Aristoteles: laut über Architektur nachdenkend und Features im Dialog abklärend, während gute Luft und Glücksgefühle seine Kreativität beflügeln und ein intelligenter Agent die Gedanken erfasst und in Kontext überführt.
Das Ergebnis ist ein Coding-Workflow, der zu einem erheblichen Teil abseits des Computerbildschirms geschieht und dabei dennoch sicher bleibt. Hierfür sorgen Agent-Sandboxes und CI/CD-Scans, die das Incident-Risiko in Grenzen halten, während Pull-Requests automatisch validiert und sogar Sprachanrufe dank Identitätsvalidierung authentifiziert werden. Zusätzlich anreichern lassen sich die KI-Systeme dabei anhand von persönlichem Kontext aus Geräten wie dem Oura Ring – vorausgesetzt, für diese Daten-Flows werden adäquate Kontrollmechanismen eingerichtet.
Mit Live-Beispielen und Aufnahmen des Spaziergangs gibt diese Keynote einen ersten Einblick, wie KI Entwickler schon bald von der Arbeitsplatzstatik ihres Desktops befreien wird. Nicht vergessen wird dabei ein Blick darauf, wie sich diese Freiheit mit Fragen der Sicherheit in Einklang bringen lassen wird.
Manoj Nair
Chief Innovation Officer, Snyk
Danny Allan
Chief Technology Officer, Snyk
Mit Danny Allan und Manoj Nair erhalten Sie von unseren Tech- und Innovation-Leadern Einblicke aus erster Hand, wie Snyk Sicherheit so agil macht wie KI-gestützte Entwicklung und zugleich für effizientere AppSec-Governance sorgt.
Im Laufe unserer Geschichte konnten sich Innnovationen immer dann durchsetzen, wenn sie unser Leben eindeutig verbessert haben. Hervorragende Beispiele dafür: Feuer, Elektrizität, Antibiotika oder das Internet. Heute sehen wir jedoch ein ganz andere Dynamik: So schnell, wie sich KI-Technologie entwickelt, ist die größte Hürde für den Fortschritt nicht mehr das, wozu Technologie imstande ist, sondern was die Gesellschaft zu akzeptieren bereit ist. In dieser provokanten Keynote wirft Zack Kass das Schlaglicht darauf, wie technologische Möglichkeiten und gesellschaftliche Bereitschaft zunehmend auseinanderdriften. Als ehemaliger OpenAI-Exec, der auch heute noch an der Speerspitze der Entwicklung künstlicher Intelligenz steht, erläutert Kass, warum das Tempo des Fortschritts künftig nicht von den Grenzen der Technologie bestimmt werden wird, sondern vom kulturellen, ethischen und institutionellen Widerstand. Mit dieser Erkenntnis lässt er Sie jedoch nicht zurück. Er führt auch ein effektives Framework ins Feld, das dabei hilft, Widerstand und Bedenken aufzulösen, Innovation aus neuer Perspektive zu betrachten und einen der bedeutendsten Momente in der Geschichte der Menschheit zu meistern.
W. Ian Douglas
Staff Developer Advocate, Block
Wer sich auf Community-Mitwirkung stützt, steht unweigerlich vor der Frage, wie sich potenzieller Schadcode dabei aus der Codebase fernhalten lässt. Das Team von Block löste dies bei einem seiner Projekte für „Automatisierungsvorlagen“, indem es sein KI-System anwies, einen eigenen Security-Scanner zu entwickeln. Hierzu zog das Team eine containerisierte Security-Pipeline auf, in der Pull-Requests für GitHub anhand von Headless-KI-Analysen und Threat-Detection-Algorithmen komplett automatisiert in einer isolierten Umgebung gescannt werden. In dieser Session erfahren Sie, wie Sie ein ähnliches Konzept zur KI-gestützten Security-Automatisierung für Ihre CI/CD-Pipelines gestalten können. Bei Block wurde dadurch aus einem Bottleneck manueller Code-Reviews, das tagelangen Aufwand bedeutete, eine automatisierte Trust-Engine, die Code-Beiträge in Minuten verarbeitet.
Harshad Kadam
Sr. Infrastructure Security Engineer, Indeed Inc
Für Cyberdefense-Experten und Detection Engineers, aber auch für interessierte Red Teams bietet diese Session einen Ansatz, wie sich Zero Trust und Deception Engineering in Zeiten der KI-Orchestrierung miteinander verbinden lassen. Hierzu entwickelten Harshad Karam und sein Team mit „MCP Threat Trap“ einen Honeypot, der sensible interne Tools über das MCP-Protokoll simuliert – mit realistischen Verzögerungen, sicherer Fehlerbehandlung und SSE-Streams, die Unternehmens-APIs imitieren. Anhand im Verborgenen ausgelöster erweiterter Canarytokens erfasst er detaillierte Metadaten. Über Workers AI läuft er komplett auf dem Global Edge von Cloudflare, sodass er weder EC2 noch Patching oder das Management von Infrastruktur erfordert. Ebenso bleibt er getarnt, ist nahtlos skalierbar und verwandelt einfache Scans in verwertbare Insights. Möglich wird dies anhand von Daten-Feeds aus Zero-Trust-Policies, durch die Ihr Incident-Team Alerts mit umfassendem Kontext erhält.
Bob Remeika
CEO, Ragie.ai
Das Model Context Protocol (MCP) stellt eine standardisierte Methodik für die Interaktion zwischen LLMs und externen Tools in Aussicht. In der Praxis erweist sich dies jedoch häufig als reichlich schwergängig. Denn allgemeine Tool-Beschreibungen lassen die Modelle im Dunkeln, womit sie überhaupt interagieren sollen. Es bleibt also nichts anderes, als das Routing manuell oder über wenig verlässliche Regeln in MCP-Clients wie Claude Desktop, Cursor oder die Implementierung von OpenAI zu steuern. Daran setzte das Team von Ragie mit einem streamfähigen Multi-Tenant-MCP-Server an, der präzisen Tool-Kontext liefert, indem zugehörige Spezifikationen anhand von Tenant-spezifischen Daten dynamisch weitergegeben werden.
In diesem Talk zeigt Bob Remeika auf, wie das Team die technischen Herausforderungen auf dem Weg zur Umsetzung anging:
Wie es FastMCP Python SDK um einen dynamischen Layer erweiterte, um Tool-Beschreibungen für jeden Tenant direkt zum Anfragezeitpunkt zu generieren.
Wie es das Antwort-Handling mithilfe von Streamable HTTP für Hunderte Tenants effizient und skalierbar gestaltete.
Kritische Fallstricke, die bei der Partitionierung, der Verarbeitung von Anfragekontext und dabei aufkamen, Kompatibilität mit bestehenden MCP-Clients zu gewährleisten.
Wie kontextbezogene Beschreibungen Unklarheiten beim Tool-Routing beseitigen und so für nahtlose und zielsichere Interaktionen sorgen.
All dies vermittelt Ihnen präzise, wie Sie dynamische Tools auch in Ihrem eigenen MCP-Server implementieren können – umgesetzt in einer Multi-Tenant SaaS-Umgebung und komplett im Einklang mit dem offiziellen Protokoll. Mit diesem technischen Deep-Dive sind Sie bestens aufgestellt, um eine Infrastruktur zu gestalten, die die Tool-Nutzung mit MCP organisch macht.
Nate Barbettini
Founding Engineer, Arcade.dev
Server auf Basis des Multi Context Protocol bieten enormes Potenzial, LLMs für neue Use Cases zu nutzen. Was aber, wenn das Ganze auf mehr als das eigene System ausgeweitet werden soll? Verfügbaren MCP-Demos haftet hierbei allen der Makel äußerst komplexer Fragen der Sicherheit und Autorisierung an. Wie Nate Barbettini jedoch in diesem Talk aufzeigt, lässt sich mit der neuesten Weiterentwicklung der MCP-Spezifikation eine differenzierte Autorisierung für mehrere Nutzer umsetzen. Und wie er betont, gestaltet sich dies weitaus weniger kompliziert als man vielleicht vermuten würde. Auf dem Weg dorthin gibt er Ihnen außerdem auch Best Practices zur Absicherung von MCP-Produktionsservern an die Hand.
John McBride
Staff Engineer, Zuplo
KI-Agents bilden die Userbase, die 2025 das schnellste Wachstum verzeichnet. Sie interagieren autonom mit Ihrem System, um Daten abzurufen und Operationen auszuführen. Für einige Unternehmen stellt dies eine Bedrohung dar, die es zu kontrollieren gilt. Anderen bietet es dagegen die Chance, ihren Kunden innovative Möglichkeiten zur Interaktion mit ihren Systemen zu eröffnen.
Unerlässlich ist jedoch in jedem Fall, dass Sie dabei die Leitschienen vorgeben. Dies erfolgt über APIs. Sie bestimmen die Ressourcen, auf die die KI Zugriff hat, wie sie diese Daten abrufen kann und wofür sie sie nutzen darf. Entscheidend ist daher, dass Ihre APIs und zugehörigen Steuerungen für Ihre Agents verständlich sind und ihnen ausreichend Features zur Ausführung ihrer Aufgaben zur Verfügung stellen. Legen Sie dabei den richtigen Grundstein, lässt sich automatisierter KI-Traffic nahtlos und in großem Umfang bewältigen.
Rene Brandel
Mitgründer & CEO, Casco (YC X25)
Dem Team von Rene Brandel gelang ein Hack von 7 der 16 öffentlich verfügbaren YC X25 KI-Agenten. So konnte es User-Daten ausschleusen, Code remote ausführen und Datenbanken kapern – bei jeweils gerade einmal 30 Minuten Zeitaufwand. In dieser Session erfahren Sie, wie sich das Team klassische Fehler zunutze machte, die den entsprechenden Unternehmen unterliefen, und wie Sie diese Sicherheitslücken schließen, bevor Ihre Agents zum Risiko für Ihr Geschäft werden.
Nnenna Ndukwe
Principal Developer Advocate, Qodo AI
Dass Ihre LLM-App in Produktion funktioniert, ist das eine. Nicht weniger wichtig ist aber, dass Sie ihr Verhalten in einer Angriffssituation verstehen. In diesem Talk dreht sich alles um Penetrationstests für GenAI-Systeme – von böswilligen Prompts über Tests des Modellverhaltens und Jailbreaks bis hin zur Nachbildung neuartiger Tarnungsmethoden, denen sich die Angreifer von heute bedienen. Sie erfahren, wie Sie ein KI-spezifisches Playbook für Penetrationstests gestalten, Missbrauchszenarien simulieren und Red-Team-Strategien in Ihr SDLC integrieren. Vorhersehbar ist LLM-Verhalten zwar nicht, aber es lässt sich systematisch evaluieren. In diesem Kontext wird untersucht, wie KI-Apps testfähig, replizierbar und von Grund auf sicher gestaltet werden können.
Aamiruddin Syed
Supply Chain Software Security, AGCO Corp.
KI-Systeme entwickeln sich mit rasanter Geschwindigkeit von statischen Modellen zu ganzen Schwärmen autonomer Agenten mit eigener Identität sowie eigenen Entscheidungen und Zugriffsrechten. Klassische Systeme für Identity & Access Management (IAM), die auf menschliche User und statische Servicekonten ausgelegt sind, können damit nicht Schritt halten. In diesem Talk wird untersucht, wie agentische KI die Identitätslandschaft verändert. Identifiziert werden dabei insbesondere auch die Punkte, an denen die Identität sämtlicher Agents verifizierbar, auditierbar und widerrufbar sein muss. Ausgehend von den OWASP Top 10 der nicht-menschlichen Identitätsrisiken und dem IAM-Framework für agentische KI von CSA werden neue Trust-Modelle, konkrete Angriffsvektoren und direkt umsetzbare Strategien beleuchtet, anhand derer Zurechenbarkeit und Sicherheit für autonome Systeme gewährleistet werden kann.
Jeff Watkins
Chief Technology Officer, CreateFuture
Die Möglichkeiten generativer KI sind zweifelsohne fantastisch. Erheblich sind aber auch die Cybersecurity-Herausforderungen, die mit ihr einhergehen. So steigen mit ihrer zunehmenden Nutzung auch die Risiken – von Datendiebstahl über die Manipulation von Modellen und Trainingsdaten bis hin zu Betriebsstörungen und Schwachstellen in der Lieferkette. In diesem Talk lernen Sie mit STOIC (Stolen, Tricked, Obstructed, Infected, Compromised) ein Framework kennen, das Ihnen dabei hilft, Bedrohungen dieser Art zu erkennen und zu mitigieren. Sie gewinnen damit nicht nur ein besseres Verständnis Ihrer GenAI-bezogenen Risiken, sondern erhalten auch wertvolle Insights zur Härtung Ihrer Systeme, zur Absicherung Ihrer Lieferkette und dazu, wie sie für klare Governance sorgen und dabei agil bleiben. Generative KI ist transformativ, wird ohne proaktive, mehrschichtige Abwehrmaßnahmen aber leicht zum Gefahrenherd. Mit der passenden Strategie sind Sie jedoch bestens aufgestellt, um sie sicher zu einem Gamechanger für Ihr Unternehmen zu machen.
Brett Smith
Distinguished Software Engineer, SAS
Kann der MCP-Server dazu beitragen, „elektrische Schafe“ vor betrügerischen Agents und böswilligen Akteuren zu schützen, oder ist er vielmehr sogar ein weiteres Einfallstor? Mit Fokus auf potenzielle Schwachstellen und Strategien für ihre Mitigierung nimmt dieser Talk die neue Angriffsfläche in den Blick, die durch MCP-Server und KI-Agents entsteht. Dabei wird diskutiert, wie agentische KI das SDLC einerseits bereichern kann, andererseits aber auch neue Sicherheitsrisiken mit sich bringt. Sie erfahren, welche Rolle MCP-Servern beim Management dieser Risiken zukommt und mit welchen Strategien Sie sie vor potenziellen Angriffen schützen können. Beantwortet werden dabei die folgenden Fragen:
Wie ist agentische KI konkret im SDLC einsetzbar?
Welche Sicherheitsrisiken bringt agentische KI in das SDLC?
Wie können MCP-Server zur Sicherheit in der Lieferkette beitragen?
Worin liegen die Risiken von MCP-Servern?
Mit welchen Strategien lassen sich Angriffe auf MCP-Server mitigieren?
Jeff Andersen
Sr. Director Product Management, Snyk
Brendan Hann
Sr. Product Marketing Manager, Snyk
Das Mandat des Shift Left ist heute gewichtiger als je zuvor. Erfahren Sie in dieser Session, wie Snyk dem durch Features Rechnung trägt, die kompromisslose Sicherheit mit schnellen Releases verbinden, ohne Dev-Workflows auszubremsen.
Itay Maor
Sr. Manager Product Management, Snyk
Kate Powers
Sr. Product Marketing Manager, Snyk
Auf dem Weg ins KI-Zeitalter gilt es für AppSec-Teams, ihre Rolle neu zu definieren. Genau das macht die Snyk AI Trust Plattform durch umfassende Visibility und Kontrolle möglich. In dieser Session erfahren Sie, wie AppSec-Teams damit von einfachen Task-Managern zu echten Security-Strategen werden.
Ryan McMorrow
Staff Product Manager, Snyk
Brendan Hann
Sr. Product Marketing Manager, Snyk
In diesem Talk beleuchten wir Strategien zur Behebung von Open-Source- und Container-Problemen. Dabei zeigen wir auf, wie ein Breakability Score und Trust-Framework dabei hilft, die Behebung von Open-Source-Problemen mit geringem Ausfallrisiko zu automatisieren.
Ezra Tanzer
Director Product Management, Snyk
Daniel Berman
Product Marketing Director, Snyk
Brendan Putek
Director of DevOps, Relay Network
AppSec nach klassischer Methodik lahmt, wenn es an die Priorisierung und Behebung geht. In dieser Session erfahren Sie, wie Snyk Entwicklern zu sicherem Fixing ohne Sorge um unerwünschte Änderungen verhilft.
Rudy Lai
Director Technology Incubation, Snyk
Zur Absicherung der nächsten Generation künstlicher Intelligenz bedarf es eines neuen Security-Paradigmas. Je ausgedehnter KI-Agents und KI-native Anwendungen genutzt werden, desto größer wird die Angriffsfläche. Damit einher gehen neue Risiken, die von Prompt-Injection und toxischen Flows bis hin zur Unvorhersehbarkeit nicht deterministischen Verhaltens reichen. Regelbasierte Security-Tools, die für Determinismus und Parametrisierung entwickelt wurden, können dem nicht mehr gerecht werden. Um die Innovationen KI-gestützter Anwendungen sicher nutzen zu können, ist eine neue Generation von Security-Teams gefragt: AI Security Engineers, ausgestattet mit eigenen agentenbasierten Systemen zur Security-Orchestrierung. In dieser Session gehen wir darauf ein, welche Kernaufgaben diese Systeme abdecken müssen, und untersuchen, wie Orchestrierung dabei helfen kann, komplexe Bedrohungen für KI-native Anwendungen zu erkennen, nachzuvollziehen und zu mitigieren.
Ein weiteres Novum der DevSecCon25 ist unsere erste AI Security Developers Challenge.
Worum es dabei geht? Schnelle Entwicklung, kreative Problemlösung und die Chance, mit brillanten Köpfen aus aller Welt zusammenzuarbeiten. Mehr wollen wir an dieser Stelle noch nicht verraten. Ein Highlight wird es aber definitiv geben, daher sollten Sie sich am besten direkt hier registrieren, um auf dem Laufenden zu bleiben und sich Ihren Platz zu sichern.
Noch nicht registriert? Unser diesjähriges Speaker-Aufgebot wird das sicher ändern. Mit dabei sind Thought Leader der Branche ebenso wie Experten aus der Dev-Praxis, die inspirieren, neue Wege aufzeigen und Sie hier und da womöglich auch zum Lachen bringen werden. Am besten lernt man von den Besten, daher registrieren Sie sich am besten noch heute.
Stone Werner
Software Engineer, Ragie.ai

Zack Kass
Global AI Advisor and Former Head of Go-To-Market, OpenAI

Zack Proser
Developers Education, WorkOS

Nnenna Ndukwe
Principal Developer Advocate, Qodo

Guy Podjarny
Founder and CEO, Tessl

John McBride
Staff Engineer, Zuplo

Nate Barbettini
Founding Engineer, Arcade.dev

W. Ian Douglas
Staff Developer Advocate, Block

Rene Brandel
Cofounder & CEO, Casco (YC X25)

Brett Smith
Distinguished Software Engineer, SAS

Jeff Watkins
Chief Technology Officer, CreateFuture

Harshad Sadashiv Kadam
Senior Infrastructure Security Engineer, Indeed Inc

Peter McKay
CEO, Snyk

Manoj Nair
Chief Innovation Officer, Snyk

Danny Allan
Chief Technology Officer, Snyk

Aamiruddin Syed
Supply Chain Software Security, AGCO Corporation

Brendan Putek
Director of DevOps, Relay Network

Jeff Andersen
Senior Director, Product Management, Snyk

Brendan Hann
Senior Product Marketing Manager, Snyk

Itay Maor
Senior Manager, Product, Snyk

Kate Powers
Senior Product Marketing Manager, Snyk

Ryan McMorrow
Staff Product Manager, Snyk

Ezra Tanzer
Director, Product Management, Snyk

Daniel Berman
Product Marketing Director, Snyk

Rudy Lai
Director, Technology Incubation • Emerging Technologies & Solutions, Snyk

Registrieren Sie sich noch heute für dieses Top-Event, bei dem wir AI Trust in all seinen Facetten ausleuchten und Ihnen Strategien und Best Practices vermitteln, mit denen Sie Ihren Weg ins KI-native Zeitalter sicher gestalten.
Spannende Insights und nicht weniger interessante Sessions von Branchen-Leadern hatten wir auch im Vorjahr für Sie parat. Alle Highlights der DevSecCon 2024 können Sie sich hier ansehen – perfekt zur Einstimmung auf das diesjährige Event, zu dem Sie in unserer Community weitere Insights erhalten.